pytorch中的 requires_grad和volatile

https://blog.csdn.net/u012436149/article/details/66971822

 

简单总结其用途

(1)requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;

 (2)volatile=True相当于requires_grad=False,适用于推断阶段,不需要反向传播。这个现在已经取消了,使用with torch.no_grad()来替代

 

posted @ 2018-06-25 11:49  牧马人夏峥  阅读(7880)  评论(0编辑  收藏  举报